Loading...
机构名称:
¥ 1.0

视觉模型(VLM)的在线测试时间适应(OTTA)最近引起了人们的注意,以利用沿流观察到的数据,以改善未来的预测。不幸的是,现有方法依赖于数据集特异性的超参数,从而大大限制了它们对看不见的任务的适应性。为了响应,我们提出了在线高斯适应(OGA),这是一种新颖的方法,该方法使用高斯分布来对视觉特征的可能性进行建模,并将零摄影先验纳入可启动的最大a后验(MAP)估计框架中,并与所有数据集中的固定超参数一起使用。我们证明,在大多数数据集和运行中,OGA优于最先进的方法。此外,我们表明,将OTTA与流行的几弹技术结合起来(一种实用但被忽视的先前研究环境)是非常有益的。此外,我们的实验研究表明,由于所有OTTA方法在运行中观察到的实质性可变性,常见的OTTA评估方案的平均性能在每个数据集中最多要超过三个。因此,我们主张更多的索式评估实践,包括增加运行的数量和考虑其他定量指标,例如我们提出的预期尾巴准确性(ETA),计算为最差10%的运行中的平均准确性。我们希望这些贡献将鼓励OTTA社区中更严格,更多样化的评估实践。代码可在https://github.com/cfuchs2023/oga上找到。

arxiv:2501.04352v1 [cs.cv] 2025年1月8日

arxiv:2501.04352v1 [cs.cv] 2025年1月8日PDF文件第1页

arxiv:2501.04352v1 [cs.cv] 2025年1月8日PDF文件第2页

arxiv:2501.04352v1 [cs.cv] 2025年1月8日PDF文件第3页

arxiv:2501.04352v1 [cs.cv] 2025年1月8日PDF文件第4页

arxiv:2501.04352v1 [cs.cv] 2025年1月8日PDF文件第5页

相关文件推荐

2024 年
¥1.0
2025 年
¥1.0
2024 年
¥6.0